学习素描矩阵的快速,准确的低级别近似(LRA)的注意力越来越多。最近,Bartlett,Indyk和Wagner(Colt 2022)提出了针对基于学习的LRA的概括。具体来说,对于使用$ m \ times n $学习的级别$ k $近似,每列中$ s $ non-Zeros的素描矩阵,他们证明了$ \ tilde {\ tilde {\ mathrm {o}}(nsm)$ \ emph {fat Shattering Dimension}($ \ tilde {\ mathrm {o}} $隐藏对数因素)。我们以他们的工作为基础,并做出了两项贡献。 1.我们提出了一个更好的$ \ tilde {\ mathrm {o}}(nsk)$ bund($ k \ le m $)。在获得界限的途径中,我们给出一个低复杂性\ emph {goldberg - jerrum算法},用于计算伪内矩阵,这将具有独立的关注。 2.我们可以缓解先前研究的假设,即素描矩阵的稀疏模式是固定的。我们证明,非二方的学习位置仅将脂肪破碎的维度增加到$ {\ mathrm {o}}(ns \ log n)$。此外,实验证实了学习稀疏模式的实际好处。
translated by 谷歌翻译